|
|
|
|
映像から現場改善や安心安全な社会を実現 |
東京, 2021年1月13日 - (JCN Newswire) - 株式会社富士通研究所(注1)(以下、富士通研究所)は、映像による人の行動認識において、箱を開けて物品を取り出すなど、複数の関節が連動して動くような複雑な行動についても、隣り合う各関節の位置や接続関係を用い、深層学習で高精度に認識できる技術を開発しました。本技術は、行動認識分野における骨格データを用いた世界標準のベンチマーク(注2)において、隣り合う関節の情報を用いない従来技術の正解率を大きく上回り、世界最高精度を達成(注3)しました。
当社は、本技術を工場での作業手順の確認や公共機関における危険行動の検知などに活用することで、安全性やサービスを大幅に改善するなど、安心安全な社会の実現に貢献していきます。
当社は、本技術の詳細を、2021年1月10日(日曜日)から2021年1月15日(金曜日)まで、オンラインで開催されている国際会議「25th International Conference on Pattern Recognition(以下、ICPR2020)」にて発表します。
近年のAI技術の進歩に伴い、工場での作業手順の確認や公共機関における危険行動の検知などを目的に、深層学習によって映像から人の行動を認識できるようになりつつあります。一般に、AIによる人の映像認識では、手や肘、肩などの骨格の各関節位置の時間的変化を特徴量として抽出し、立つ、座るなどの簡単な行動パターンと紐づけて認識していました。
今回開発した時系列行動認識技術では、箱を開けて物品を取り出す開梱作業など、複数の関節が連動して変化するような複雑な行動についても、深層学習のAIモデルによる高精度な認識を実現しました。
開発した技術
開梱作業などの複雑な行動では、腕の曲げ伸ばしに伴い、手や肘、肩の関節が連動して動きます。今回、関節位置をノード(頂点)として、人体の構造に基づいて隣り合う関節を結んだエッジからなるグラフを採用し、グラフ構造の畳み込み演算を行うグラフ畳み込みニューラルネットワーク(注4)の新たなAIモデルを開発しました。本モデルを、あらかじめ関節の時系列データを用いて学習することで、隣り合う関節との接続強度(重み)が最適化され、行動の認識に有効な接続関係が獲得できます。従来技術では関節ごとの個別の特徴を正確に捉える必要がありましたが、学習済みのAIモデルでは、連動する隣り合う関節を併せた特徴量が抽出でき、複雑な行動に対する高精度な認識を実現しました。
本技術を行動認識分野における骨格データを用いた世界標準のベンチマークで評価したところ、公開データセットにおける、立つ、座るなどの単純な行動では、隣り合う関節の情報を用いない従来技術と同等の正解率(注5)を保ち、開梱作業、物を投げるなどの複雑な行動では正解率が大きく向上し、全体として7%以上も上回り世界一の認識精度を達成しました。
今後
当社は、今後、本技術で得られた複雑な行動を認識できるAIモデルを、当社の行動認識AI「行動分析技術 Actlyzer(アクトライザー)」(注6)の基本動作100種類に追加することで複雑な行動を高精度に認識するモデルを短時間で構築可能にするとともに、2021年度中の実用化を目指し、様々な業務の現場改善や安心安全な社会に向けた課題解決に貢献します。
本リリースの詳細は下記をご参照ください。 https://pr.fujitsu.com/jp/news/2021/01/13.html
概要: 富士通株式会社
詳細は http://jp.fujitsu.com/ をご覧ください。
トピック: Press release summary
Source: Fujitsu Ltd
セクター: Electronics, Cloud & Enterprise
https://www.acnnewswire.com
From the Asia Corporate News Network
Copyright © 2024 ACN Newswire. All rights reserved. A division of Asia Corporate News Network.
|
|